Το ChatGPT και τα άλλα chatbots δεν είναι αμερόληπτα αλλά αναπαράγουν απόψεις των δημιουργών τους
Η γλώσσα και η εταιρική κουλτούρα επηρεάζουν τις απαντήσεις της τεχνητής νοημοσύνης.
Η ιδέα ότι η τεχνητή νοημοσύνη λειτουργεί χωρίς μεροληψία είναι ευρέως διαδεδομένη. Ωστόσο, νέα μελέτη που δημοσιεύτηκε στο επιστημονικό περιοδικό npj Artificial Intelligence καταλήγει στο συμπέρασμα ότι τα μεγάλα γλωσσικά μοντέλα δεν είναι τόσο αποστασιοποιημένα όσο συχνά πιστεύεται. Αντίθετα, τείνουν να αντικατοπτρίζουν τις πολιτικές και πολιτισμικές αξίες των εταιρειών και των χωρών που τα ανέπτυξαν, επηρεάζοντας διακριτικά τον τρόπο με τον οποίο παρουσιάζουν πρόσωπα και ιδέες.
Τα λεγόμενα LLMs, που «κινούν» εφαρμογές όπως το ChatGPT, το Gemini και το Claude, εκπαιδεύονται σε τεράστιους όγκους δεδομένων από βιβλία, ιστοσελίδες και ψηφιακά αρχεία. Επειδή όμως χρησιμοποιούνται πλέον ως βασική πηγή πληροφόρησης για εκατομμύρια ανθρώπους, οι ερευνητές θέλησαν να εξετάσουν αν πράγματι παρουσιάζουν ιστορικά και πολιτικά ζητήματα με ισορροπία ή αν ενσωματώνουν συγκεκριμένες ιδεολογικές οπτικές.
Οι επικεφαλής της μελέτης επισημαίνουν ότι η «ουδετερότητα» είναι έννοια σχετική. Αυτό που θεωρείται ισορροπημένη παρουσίαση σε μια χώρα, μπορεί αλλού να εκλαμβάνεται ως μεροληψία. Με αυτό το σκεπτικό, η ομάδα του επιχείρησε να μετρήσει εμπειρικά αν και πώς τα μοντέλα υιοθετούν συγκεκριμένες πολιτικές στάσεις, αντί να βασιστεί σε εντυπώσεις ή θεωρητικές συζητήσεις.
Πώς μετρήθηκε η ιδεολογική κλίση των μοντέλων
Για τις ανάγκες της μελέτης εξετάστηκαν 19 δημοφιλή μοντέλα από διαφορετικές γεωπολιτικές περιοχές: τις Ηνωμένες Πολιτείες, την Κίνα, χώρες της Ευρώπης και τα Ηνωμένα Αραβικά Εμιράτα. Μεταξύ αυτών ήταν το GPT-4, το Llama, το Qwen και το Wenxiaoyan. Η ποικιλία αυτή επέτρεψε τη σύγκριση της «συμπεριφοράς» των συστημάτων σε διαφορετικά πολιτισμικά περιβάλλοντα.
Οι ερευνητές χρησιμοποίησαν μια λίστα 3.991 πολιτικών προσώπων από τη βάση δεδομένων Pantheon dataset, επιλέγοντας άτομα που γεννήθηκαν μετά το 1850, ώστε να εστιάσουν στη σύγχρονη πολιτική πραγματικότητα. Κάθε μοντέλο κλήθηκε αρχικά να περιγράψει ένα πρόσωπο, όπως θα έκανε ένας απλός χρήστης. Στη συνέχεια, του ζητήθηκε να αξιολογήσει αν η περιγραφή που παρήγαγε ήταν θετική ή αρνητική, σε κλίμακα πέντε βαθμίδων. Έτσι, οι επιστήμονες μπόρεσαν να ποσοτικοποιήσουν τον «τόνο» χωρίς να κατευθύνουν άμεσα τις απαντήσεις.
Η γλώσσα ως ιδεολογικό φίλτρο
Ιδιαίτερο ενδιαφέρον είχε και ο ρόλος της γλώσσας. Τα πειράματα πραγματοποιήθηκαν στις έξι επίσημες γλώσσες του ΟΗΕ — αραβικά, κινεζικά, αγγλικά, γαλλικά, ρωσικά και ισπανικά. Διαπιστώθηκε ότι η ίδια ερώτηση μπορούσε να δώσει διαφορετικό ιδεολογικό χρώμα ανάλογα με τη γλώσσα διατύπωσης. Το εύρημα αυτό συμφωνεί με παλαιότερη μελέτη που δημοσιεύτηκε στο Nature Human Behaviour από ερευνητές του MIT Sloan School of Management, η οποία έδειξε ότι τα μοντέλα παράγουν πιο συλλογικές απαντήσεις στα κινεζικά, ενώ στα αγγλικά τείνουν σε πιο ατομοκεντρική και αναλυτική προσέγγιση.
Τα αποτελέσματα έδειξαν σαφείς αποκλίσεις. Μοντέλα που αναπτύχθηκαν σε δυτικές χώρες παρουσίαζαν συχνότερα θετικό τόνο απέναντι σε πρόσωπα που συνδέονται με ανθρώπινα δικαιώματα, συμπερίληψη και φιλελεύθερες αξίες. Αντίθετα, κινεζικά μοντέλα έδειχναν μεγαλύτερη εύνοια σε πρόσωπα που σχετίζονται με κρατική σταθερότητα και οικονομικό έλεγχο, ενώ ήταν πιο επικριτικά απέναντι σε αντικαθεστωτικές φωνές. Παράλληλα, διαφορές εντοπίστηκαν και εντός της ίδιας χώρας: το Grok της xAI εμφάνιζε τάσεις πιο κοντά σε συντηρητικό εθνικισμό, ενώ το Gemini έδειχνε ισχυρότερη έμφαση σε προοδευτικές και περιβαλλοντικές αξίες.
Ουδετερότητα ή διαφάνεια; Το στοίχημα της ρύθμισης
Οι ερευνητές τονίζουν ότι τα ευρήματα δεν σημαίνουν πως ένα μοντέλο είναι «σωστό» και ένα άλλο «μεροληπτικό». Η πλήρης ουδετερότητα, υποστηρίζουν, είναι πρακτικά αδύνατη, αφού κάθε σύστημα πρέπει να επιλέξει τι θα αναδείξει και τι θα υποβαθμίσει. Αντί για επιβολή ιδεολογικών περιορισμών, προτείνουν έμφαση στη διαφάνεια. Όπως στον Τύπο η πολυφωνία θεωρείται θεμέλιο της δημοκρατίας, έτσι και στην τεχνητή νοημοσύνη ίσως χρειάζεται ένα πλαίσιο που θα διασφαλίζει ελευθερία και ανταγωνισμό, αποτρέποντας τα μονοπώλια και επιτρέποντας στους χρήστες να γνωρίζουν ποιο «ιδεολογικό φίλτρο» επιλέγουν κάθε φορά.